焦點
-
索尼半導體解決方案公司推出全新4K監控攝影機感光元件IMX908 採用1.45微米LOFIC技術 以高畫質提升高對比與低光環境下的辨識精準度
索尼半導體解決方案公司(Sony)今日宣布即將推出具備業界最小*1 1.45微米LOFIC*2像素、專為監控攝影機設計的4K CMOS感光元件IMX908,這款感光元件採用新開發的LOFIC像素,在4K解析度下以單次曝光實現96 dB的高動態範圍影像。此外,透過改良的低光源表現可在高對比及昏暗環境下提供高品質影像,相較其他傳統產品可減少高光飽和、陰影細節流失及雜訊。 藉由IMX908的發布,也將進一步擴充Sony 在監控攝影機應用中兼具高解析與高動態範圍的產品陣容,滿足室內外多元環境下對具有高準確性的影像辨識需求,進而為打造更安全、安心的社會貢獻一份心力。 *1 Sony針對監控攝影機應用的CMOS影像感測器所作的調查(截至2026年3月17日公告時)。 *2 Lateral overflow integration capacitor(橫向溢流積分電容,簡稱LOFIC)。 型號 預計發貨時間 IMX908 CMOS 感光元件 1/2.8型 (對角線6.42 mm) 840萬有效像素*3 2026. 3月底 監控攝影機的應用已不僅限於安全監控,更廣泛用於城市等公共空間及其他設施的監控。隨著AI影像辨識成為攝影機的標準功能,市場對能在明亮至昏暗等各種環境下,穩定提供高品質影像的感光元件需求也持續增長。 IMX908採用Sony專為監控攝影機開發的LOFIC像素技術— STARVIS 3™,其飽和電荷量約為傳統產品*4的20倍,低光源表現*5提升約27%*4實現了96 dB的動態範圍。與常見的多重曝光HDR成像方式不同,IMX908僅需單次曝光就能實現高動態範圍影像,即使面對移動的主體,也可捕捉高畫質且較少失真*6的影像。此外,透過Sony原創的像素設計讓這些特性都能在業界最小*1的1.45微米LOFIC像素尺寸下實現。IMX908即使在高對比及低光環境下,也能提供高品質的4K影像,有助於提升監控攝影機的辨識精準度與多功能性。 *4 與IMX778 1/2.8型、845萬有效像素監控攝影機用影像感測器相比。 *5 根據SNR1s,Sony專為監控攝影機CMOS感光元件制定的低光源影像品質指標。 *6 指影像處理產生的視覺異常(如非原始場景中出現的非預期圖案或色偏)。 ■ 業界最小*1 1.45微米LOFIC像素 實現小型設計與4K解析度 IMX908搭載新開發的LOFIC像素,其結構比傳統產品具備更高效的電荷累積與電壓轉換能力,有助於提升感光元件的飽和電荷量及低光源表現。此結構也實現了業界最小*1的1.45微米單一像素,透過1/2.8型感光元件也能提供4K解析度影像。 ■ 96 dB高動態範圍 在高對比與低光源環境中實現高畫質影像 藉由將飽和電荷量提升至傳統產品*4近20倍,IMX908可累積更多電荷,減少強光拍攝時的高光飽和。與傳統產品*4相比,低光表現*5亦提升約27%*4,即使在昏暗環境下拍攝也能減少陰影細節流失並抑制雜訊。透過這些改良將單次曝光的動態範圍擴展至96 dB,即使在高對比與低光環境下,也能實現具備高品質與高感光度的影像。 →更多的【PCDIY!業界新聞】: →更多的【PCDIY!賣場情報】: →更多的【PCDIY!科技情報】: →更多的【IT資訊新聞】: →更多的【ITMan!資訊經理人】: →更多的【PCDIY!八卦】: (01)光華商場的新危機,淘寶網帶來的跨境電商價格戰![http://www.pcdiy.com.tw/detail/5232]
-
Zyxel 勇奪德國 techconsult 資安評選雙料冠軍,防火牆與 VPN 雙雙奪下榜首
於防火牆評比擊敗所有參評廠商脫穎而出,並成為 VPN 類別僅六名入選「PUR 鑽石象限」的領導品牌之一 台灣新竹,2026 年 3月 17 日 — 提供結合資安、AI和雲端網管的商用網路解決方案領先品牌 - 兆勤科技(Zyxel Networks) 宣布其防火牆與 VPN 解決方案在最新 techconsult 專業用戶評價(Professional User Ratings, PUR)中,再度榮獲冠軍殊榮。Techconsult 為隸屬於 Heise 集團的德國知名獨立研究與分析機構。 在超過 4,400 位來自企業端的資安專家參與的「techconsult 專業用戶評比:2026 資安解決方案」調查中,受評產品必須同時在「解決方案」與「企業表現」兩大卓越指標中脫穎而出,才能獲得 techconsult 最高等級的冠軍肯定。 在網路防火牆類別中,共有十家企業獲得此最高評級,而Zyxel在所有入選的供應商中脫穎而出,勇奪榜首;而在VPN類別,Zyxel同樣表現強勁,在僅有六家獲選冠軍的廠商中,穩居前兩大領導品牌地位。在各項細部指標中,Zyxel 在產品體驗或後勤服務上皆展現了全面的領先優勢: ● 優異的產品體驗:Zyxel 的網路防火牆與 VPN 解決方案,皆在「易用性」與「產品忠誠度及推薦度」奪下最高分;其中 VPN 解決方案的「功能性」亦獲得極高讚賞。 ● 卓越的通路與技術支援:防火牆產品在「供應商滿意度」及「銷售合作夥伴」評比中拿下最高評價;而在 VPN 供應商評等中,Zyxel 更於「服務與技術支援」以及「資訊、顧問與教育訓練」等項目拔得頭籌。 兆勤科技總經理蔡明見表示:「此次在 techconsult PUR 報告中同時榮獲防火牆與 VPN 的雙料冠軍肯定,是Zyxel產品具備實戰防護力的最佳實證。這清楚向市場證明了,我們不只提供安全可靠的防禦,更是中小企業資安領域的領航者,擁有與全球頂尖大廠競爭的堅強底蘊。能在防火牆領域名列前茅,意義重大;而更讓我們欣慰的是,客戶對產品的『易用性』給予高度讚賞,並願意主動向業界推薦。這份來自真實用戶的信任,正是Zyxel成為網路安全關鍵力量的有力證明。」 蔡明見也指出,techconsult 的調查特別具有價值,因為它是完全獨立的,且基於用戶的真實反饋。「我們在歷年年度報告中皆穩坐領先地位,顯示出Zyxel在產品研發上,堅持不懈、始終如一、創新且以客戶為中心的研發策略,持續帶來了優異的成果。」 techconsult 分析師 Raphael Napieralski 指出:「防火牆與 VPN 解決方案對企業安全至關重要,因此產品不僅必須具備卓越的技術性能、易於部署與操作,還需要供應商提供完善的支援服務。Zyxel在最新的 techconsult PUR 調查中榮獲 冠軍評級,充分證明其 VPN 產品兼具了卓越的防護力、易用性與創新技術,同時也展現出優異的服務品質,贏得了極高的客戶滿意度。」 受評測的供應商會顯示於「PUR 鑽石象限(PUR diamond)」中,以直觀呈現客戶對其產品與服務的綜合評分排名。該調查的評估標準涵蓋了效能、功能性、易用性與用戶滿意度等多項指標,且只有累積足夠正面訪談樣本的供應商,才具備入榜資格。在 2026 年 techconsult PUR 鑽石象限中,網路防火牆類別共收錄了 23 家供應商,VPN 類別則有 21 家。 關於 techconsult techconsult 成立逾 30 年,是一家專業的研究與分析機構,每年對企業與技術決策者進行超過 35,000 次訪談,協助終端企業用戶進行產品採購與制定策略規劃。 →更多的【PCDIY!業界新聞】: →更多的【PCDIY!賣場情報】: →更多的【PCDIY!科技情報】: →更多的【IT資訊新聞】: →更多的【ITMan!資訊經理人】: →更多的【PCDIY!八卦】: (01)光華商場的新危機,淘寶網帶來的跨境電商價格戰![http://www.pcdiy.com.tw/detail/5232]
-
領航兆級參數運算!華碩全方位AI解決方案震撼NVIDIA GTC
華碩今日於NVIDIA GTC 2026發表全液冷AI基礎架構,為新世代NVIDIA Vera Rubin平台帶來全方位端對端解決方案,包括:機架級AI工廠、桌上型AI超級運算、邊緣AI與企業AI,助攻企業、雲端供應商打造高效節能的大規模AI叢集,降低PUE與TCO,成就無與倫比的數位生產力。 其中,採用NVIDIA Vera Rubin的全新ASUS AI POD,是一款專為海量AI工作負載設計的液冷裝置,可提供多元冷卻模式、客製化散熱方案和備援功能,滿足各式所需;同時,亦結合專家諮詢、儲存配置、基礎架構部署等一站式服務,加速企業升級,共創無限商機。 而同為本次展出一大亮點的XA VR721-E3,為100%液冷機櫃級系統,其熱設計功耗(TDP)最高可達227kW (MaxP)或187kW (MaxQ),每瓦效能提升10倍,相當適合兆級參數模型運算,成為大規模AI工廠強悍動能來源;此外,華碩亦攜手Schneider Electric、Vertiv等國際大廠,構築全棧式電力與冷卻基礎設施,無論是標準部署、先進液冷環境,皆能實現零降速(zero-throttle)性能與高度冗餘。 針對數據中心的嚴苛需求,華碩另同步推出支援NVIDIA HGX Rubin NVL8系統的伺服器系列,配備八顆NVIDIA Rubin GPU,並透過第六代NVIDIA NVLink連接,且每顆GPU整合高達800G頻寬,能協助企業以較低成本轉型至液冷架構,包括:配備創新混合冷卻系統的XA NR1I-E12L與全液冷的XA NR1I-E12LR;其中,XA NR1I-E12L不僅將液冷(D2C)技術精準應用於NVIDIA GPU基板,更搭配氣冷系統為雙Intel Xeon 6 處理器提供絕佳散熱。 堅強的產品陣容還有搭載NVIDIA HGX B300系統的XA NB3I-E12、配備NVIDIA MGX架構與NVIDIA ConnectX-8 SuperNIC的ESC8000A-E13X,以及內建NVIDIA RTX PRO 4500 / 6000 Blackwell伺服器版GPU的ESC8000A-E13P,可輕鬆應對巨量資料處理分析、AI / 影像及視覺運算。 實際應用方面,ASUS AI工廠已累積多個成功案例,像是ASUS ESC8000系列,支援NVIDIA Omniverse所建構的生產線數位分身(Digital Twin),搭配NVIDIA可客製化多鏡頭追蹤工作流,以進行遠端模擬,降低部署風險;且為推動AI開發與普及,華碩亦與NVIDIA認證儲存供應商,如:IBM、DDN、Weka、VAST Data密切合作,建立具備擴展性的區塊儲存(VS320D-RS12)、物件儲存(OJ340A-RS60)及軟體定義系統,確保從邊緣到雲端都擁有高度靈活性。 作為AI 領域專家,華碩創建完整的實體AI生態系統,提供從初期開發到最終部署所需的關鍵算力,而這場科技革命始於開發人員的桌面,也就是搭載NVIDIA Grace Blackwell Ultra平台的桌上型超級電腦—ASUS ExpertCenter Pro ET900N G3,其內建NVIDIA NVLink-C2C互連技術與748GB一致性記憶體(Coherent Unified Memory),足以承擔訓練海量模型的重任。 而極致小巧的ASUS Ascent GX10,則配備NVIDIA Grace Blackwell Superchip,以提供Petaflop等級震撼效能(每秒千萬億次浮點運算),是快速模型迭代,以及具擴充性邊緣配置的理想首選!同時,此強大的開發能力亦可無縫轉換至內建NVIDIA Jetson Tho的推論引擎—ASUS PE3000N,其內蘊高達2,070 TFLOPS的驚人運算,再加上NVIDIA Cosmos等開放模型與Metropolis 的視覺AI庫,即使執行感測器融合或自動導航都能從從容容、游刃有餘! 安全可靠的代理AI 此外,Ascent GX10及ExpertCenter Pro ET900N G3亦相容最新NVIDIA NemoClaw平台,此開源架構可簡化OpenClaw AI助理部署流程,並安裝NVIDIA OpenShell,以支援NVIDIA Nemotron等開源模型,開發人員可在本地建置全天候運作的自主代理程式,透過隔離的沙箱環境、權限控管與私有裝置端推論,確保AI應用更安全且值得信賴。 →更多的【PCDIY!業界新聞】: →更多的【PCDIY!賣場情報】: →更多的【PCDIY!科技情報】: →更多的【IT資訊新聞】: →更多的【ITMan!資訊經理人】: →更多的【PCDIY!八卦】: (01)光華商場的新危機,淘寶網帶來的跨境電商價格戰![http://www.pcdiy.com.tw/detail/5232]
-
Red Hat 攜手 NVIDIA 推出 Red Hat AI Factory,加速實現大規模生產級 AI 全新聯手打造的產品結合 Red Hat AI Enterprise 與 NVIDIA 加速運算軟體,為建置、部署及擴展 AI 應用程式提供統一基礎架構
世界領先開放原始碼軟體解決方案供應商 Red Hat 近日宣布推出 Red Hat AI Factory with NVIDIA,這是一款與 NVIDIA 共同打造的軟體平台,結合 Red Hat AI Enterprise 與 NVIDIA AI Enterprise,為大規模部署 AI 的企業提供端到端的最佳化 AI 解決方案。Red Hat AI Factory with NVIDIA 是雙方深度合作的最新里程碑,旨在將最新的 AI 創新技術加速交付給企業客戶,同時為 NVIDIA 硬體架構提供 Day 0 支援。 隨著代理式 AI(Agentic AI)應用程式的蓬勃發展,預計至 2029 年企業 AI 支出將超過 1 兆美元 。企業正積極將其策略轉向為高密度、代理式工作負載,並致力於解決隨之產生的 AI 推論與基礎架構需求。為協助企業在 AI 時代應對上述挑戰,Red Hat AI Factory with NVIDIA 可賦能 IT 營運團隊,使其得以簡化涵蓋傳統基礎架構與持續演進的 AI 堆疊需求的管理流程。 Red Hat AI Factory with NVIDIA 讓企業加速邁向生產級 AI,並為 AI 工廠(AI factories)提供軟體平台。該平台運行於加速運算基礎架構上,為模型及驅動推論堆疊的 NVIDIA GPU 提供更高的效能。此平台支援 Cisco、Dell Technologies、Lenovo 與 Supermicro 等頂尖系統製造商的 AI 工廠基礎架構,賦能 IT 管理員與營運團隊以管理任何企業工作負載般同規格的營運嚴謹度與可預測性,擴展並維護 AI 部署。 Red Hat 技術長暨全球工程資深副總裁 Chris Wright 表示:「從 AI 實驗階段轉向工業級規模、涵蓋全企業範疇的生產環境,需要徹底改變我們管理 AI 運算堆疊的方式。透過 Red Hat AI Factory with NVIDIA,我們正加速 AI 的部署並快速邁向生產階段。憑藉我們經驗證的混合雲產品所驅動、穩定且高效能的基礎,得以賦能客戶掌握其 AI 策略,並以應用於核心 IT 平台同等的嚴謹度進行擴展。」 NVIDIA 企業 AI 平台副總裁 Justin Boitano 指出:「企業正在建立 AI 工廠,以便在推論過程中大規模地將資料轉化為智慧,而這需要橫跨混合雲的生產級基礎架構與軟體。Red Hat AI Factory with NVIDIA 提供軟體基礎,協助企業應對快速的基礎架構創新節奏,同時可靠地建置與部署新一代的代理式 AI 應用程式。」 這個雙方共同打造的軟體平台整合 Red Hat 與 NVIDIA 在開源協作、工程設計及支援方面的專業知識,提供值得信賴的企業級解決方案。Red Hat AI Factory with NVIDIA 為跨環境(無論是地端、雲端或邊緣)的 AI 部署提供具高度擴展性的基礎。其核心功能具備高效能 AI 推論、模型調整、客製化,以及代理部署與管理,並以安全性為核心,使企業得以維持從資料中心至公有雲的架構控制權,並實現以下優勢: ● 加速價值實現時間:透過簡化的工作流程與即時存取預先配置的模型,加速邁向生產級 AI。這些模型包含獲得擔保的 IBM Granite 系列、NVIDIA Nemotron 與 NVIDIA Cosmos 開源模型,並以 NVIDIA NIM microservices 形式交付。此外,企業可使用 NVIDIA NeMo 進一步將模型與企業資料對齊,減少調整時間與成本。 ● 最佳化效能與成本:藉由統一的高效能服務堆疊,最大化基礎架構使用率並增強推論效能。Red Hat AI Factory with NVIDIA 提供內建的可觀測性功能,並運用由 vLLM、NVIDIA TensorRT-LLM 與 NVIDIA Dynamo 驅動的 Red Hat AI 推論能力,以滿足嚴格的 AI 服務水準目標(SLO)。這有助於企業透過最佳化模型與 NVIDIA GPU 之間的連接,降低 AI 的總體擁有成本(TCO)。 ● 智慧 GPU 調度:透過智慧調度與池化基礎架構(pooled infrastructure),實現依需求存取 GPU 資源,並具備自動檢查點機制(checkpointing)以保護長時間執行的作業,並在動態環境中維持更可預測的運算成本。 ● 強化企業態勢:運用 Red Hat Enterprise Linux 彈性且穩定的基礎,企業可從初始階段即受惠於內建的進階安全性與合規功能,有助於降低風險、節省時間並減少停機時間,為需要隔離與持續驗證的關鍵任務 AI 工作負載提供安全性強化的基礎。NVIDIA DOCA 微服務奠基於此基礎打造零信任架構,並在整個基礎架構中提供 AI 執行期間的安全性。 服務提供狀態 Red Hat AI Factory with NVIDIA 現已推出。 Cisco 運算資深副總裁暨總經理 Jeremy Foster 分享:「Cisco 專注於協助客戶將 AI 從實驗階段安全且大規模地推向生產並橫跨分散式環境。透過支援 Red Hat AI Factory with NVIDIA,Cisco 賦能企業無論是資料中心或邊緣環境,皆可在一致的企業級基礎架構上部署與運行 AI。我們攜手合作為客戶提供更簡單、更可靠的方式執行 AI 關鍵任務工作負載,並具備對核心基礎架構所期望的效能、安全性與營運控制。」 Dell Technologies 基礎架構解決方案事業群資深副總裁暨技術長 Ihab Tarazi 表示:「企業正迅速將其 AI 投資轉化為實際營運,而這需要能在跨混合環境中可靠運行、強大且整合的基礎架構。透過與 Red Hat 和 NVIDIA 的合作,我們將為客戶帶來更高水準的整合,進一步加速企業 AI 的成果。」 Lenovo 基礎架構解決方案事業群資深副總裁 Vlad Rozanovich 表示:「企業 AI 的下一個世代在於即時行動與實質的商業報酬,而工業級強度的混合基礎為關鍵。我們能夠提供可擴展的企業級平台,結合 Lenovo 的推論最佳化基礎架構與 Red Hat AI Factory with NVIDIA,為客戶提供即時優勢。此具韌性的代理式 AI 基礎,可在其營運的任一地點進行部署與管理。」 Supermicro EMEA 總裁暨董事總經理、技術與 AI 資深副總裁 Vik Malyala 表示:「Supermicro 擁有廣泛的 Red Hat 認證系統產品組合,並致力於為 AI 工廠提供最先進的加速運算基礎架構。我們針對 Red Hat AI Factory with NVIDIA 的驗證解決方案,有助於確保客戶能夠將我們的高效能專用系統與強大的企業級軟體平台相結合,簡化關鍵 AI 企業工作負載的部署與擴展,協助企業在混合雲中實現更快的價值實現時間,以及可預測、高效率的營運。」 • 探索 Red Hat AI Factory with NVIDIA • 了解 Red Hat 與 NVIDIA 的合作如何創造價值 • 透過 MaaS Code Assistant 的快速入門,親身體驗 Red Hat AI Factory with NVIDIA • 探索 Red Hat AI Enterprise 的優勢 • 進一步了解 Red Hat 與 NVIDIA 的合作 • 深入了解 Red Hat • Red Hat Taiwan 官網 • 加入 Red Hat Taiwan Facebook 專頁 • 關注 Red Hat 新聞 • 閱讀 Red Hat 部落格 • 在 Red Hat Twitter / X 追蹤 Red Hat • 在 YouTube 觀看 Red Hat 影片 • 在 LinkedIn 追蹤 Red Hat →更多的【PCDIY!業界新聞】: →更多的【PCDIY!賣場情報】: →更多的【PCDIY!科技情報】: →更多的【IT資訊新聞】: →更多的【ITMan!資訊經理人】: →更多的【PCDIY!八卦】: (01)光華商場的新危機,淘寶網帶來的跨境電商價格戰![http://www.pcdiy.com.tw/detail/5232]
-
Dell AI Factory with NVIDIA 加速企業 AI ROI 實現 升級 AI 資料平台、端到端基礎架構與服務 突破 AI 部署瓶頸
• 超過 4,000 家企業採用 Dell AI Factory,投資報酬率(ROI)最高可達 2.6 倍,並提供從實驗到正式部署的明確路徑 • 廣泛的產品組合更新可簡化企業 AI 部署,將分散的資料轉化為 AI 動能,並縮短從試點到正式導入的時間 戴爾科技集團(NYSE: DELL)在 Dell AI Factory with NVIDIA 推出滿兩週年之際,宣布其 AI 資料平台(Dell AI Data Platform)、端到端 AI 基礎架構,以及 AI 解決方案與服務產品組合的多項最新進展,協助企業將 AI 從試點階段擴展至大規模正式部署。隨著超過 4,000 家客戶導入 Dell AI Factory,而早期採用者在第一年內即實現最高達 2.6 倍的投資報酬率(ROI) ,戴爾科技證明端到端的方法能夠帶來可量化的商業成果。 企業 AI 發展正經歷根本性的轉變。隨著 AI 程式碼助理與代理式工作流程大幅降低開發客製化應用的成本與時間,越來越多 CIO 選擇在企業內部與本地部署環境中建立 AI 能力,進而帶動對自有基礎架構的需求。 然而,不明確的投資報酬率是阻礙 AI 大規模部署的主要挑戰。過去兩年 Dell AI Factory with NVIDIA 的應用經驗顯示,實現可量化回報需要三個關鍵要素:能夠讓企業資料具備 AI 就緒能力的資料平台、可將最新技術從試點順利擴展至正式部署的基礎架構,以及透過簡化部署與加速 ROI 來縮短價值實現時間的解決方案與服務。戴爾科技是以 NVIDIA 技術為核心,同時提供上述三項能力的領先供應商,為企業建立從 AI 投資到實際商業成果的可驗證路徑。 作為領先的 AI 基礎架構供應商 ,戴爾科技提供業界完整的 AI 基礎架構產品組合 ,整合資料、基礎架構、解決方案與服務等多層面能力。 • 將企業知識轉化為 AI 動能的資料平台 AI 正迅速從輔助型工具演進為自主、具代理能力的系統,但其成效仍受限於可存取、可信任並可加以運用的資料。Dell AI Data Platform with NVIDIA 透過統一的 AI 平台來應對此挑戰,整合戴爾科技的高效能儲存、模組化資料引擎,以及 NVIDIA 的加速運算、網路、軟體與 CUDA-X 函式庫。作為 Dell AI Factory with NVIDIA 的資料基礎平台,它可支援從檢索增強生成(RAG)與多模態搜尋,到代理式工作流程與大規模資料處理等多種工作負載。最新進展將使企業能更快速、輕鬆地將資料轉化為實際 AI 成果。 • 支援從桌面到資料中心 AI 工作流程的基礎架構 戴爾科技的新一代基礎架構可在 AI 發展的各個階段提供支援,從快速原型開發到大規模部署,全面支援 AI 工作流程。 ● Dell Pro Max with GB10 與 Dell Pro Max with GB300 – 專為 AI 打造的桌面型 AI 超級電腦,可用於建構與執行 AI,提供代理式 AI 工作流程與自主代理開發所需的運算能力、記憶體容量與全天候可靠性。透過 NVIDIA NemoClaw 與 NVIDIA OpenShell,企業可在桌面端利用本地 AI 建立安全、可自主運作且長時間執行的代理,同時確保資料安全與隱私。戴爾科技也是首家推出搭載 NVIDIA GB300 Grace Blackwell Ultra Desktop Superchip 桌面系統的 OEM 廠商,可提供最高 20 petaFLOPS 的 FP4 運算效能與 748GB 一致性記憶體(coherent memory),支援在兆參數規模下開發與部署自主 AI 代理。 ● Dell Pro Precision 工作站 – 提供 AI 開發者與資料科學家所需的運算效能與擴充能力。塔式(Tower)機型最高可搭載五張 NVIDIA RTX PRO Blackwell Desktop Generation GPU,而配備 NVIDIA RTX PRO Blackwell Generation Laptop GPU 的行動工作站,則在更纖薄流線的設計中提供更強大的效能。 ● PowerEdge XE9812 為戴爾科技旗艦級液冷伺服器,採用 NVIDIA Vera Rubin NVL72 平台,可支援大規模即時訓練與推論。 ● PowerEdge XE9880L、XE9882L 與 XE9885L 為液冷伺服器,搭載 NVIDIA HGX™ Rubin NVL8,專為在既有資料中心空間與電力限制下加速經驗證的 AI 效能而設計。 用於資料中心的企業級工作負載: ● PowerEdge R770、R7715 與 R7725 搭載全新 NVIDIA RTX PRO™ 4500 Blackwell Server Edition GPU,使團隊能在通用型基礎架構中加入 AI 加速器。 ● PowerEdge R9822 與 M9822 首度導入 NVIDIA Vera CPU,為企業在應對高需求企業級工作負載時提供更多選擇。 用於高效能網路與新興技術: ● Dell PowerSwitch SN6000 系列採用 NVIDIA Spectrum-6 架構的乙太網路交換器,提供 1.6Tbs 傳輸能力,並支援液冷設計與共同封裝光學(co-packaged optics)選項,專為基於 Vera Rubin 架構的 Dell 平台打造。 ● PowerSwitch SN5610 與 SN2201 現提供更多網路作業系統選擇,包括 Cumulus Linux 與戴爾科技的 Enterprise SONiC Distribution。 ● NVIDIA Quantum-X800 InfiniBand Q3300-LD 為液冷交換器,可為 AI 與雲原生工作負載提供高頻寬網路功能。 ● 戴爾整合式機架可擴充系統(IRSS) 擴展納入 Dell PowerSwitch 與 NVIDIA 液冷交換設備,為 AI 基礎架構提供整合式機櫃層級的電力與散熱管理能力。 NVIDIA NVQLink 與 CUDA-Q 支援 – 戴爾科技是首家 OEM 在搭載 NVIDIA AI 基礎架構 的 PowerEdge 伺服器上整合 NVIDIA NVQLink with CUDA-Q 的供應商,使企業與研究機構能探索新興的量子與古典複合式運算(quantum-classical computing)應用情境。 這些能力透過將量子處理器(Quantum Processing Units, QPU) 的運算能力與 NVIDIA 加速運算結合,用於量子系統控制與錯誤校正,並建立於可信賴的 Dell PowerEdge 伺服器平台之上,進而加速在先進藥物研發與材料科學模擬等領域的突破性研究。 更新的 Dell AI Solutions 結合全新模組化架構、Dell Automation Platform 藍圖以及 NVIDIA AI Enterprise 軟體,在簡化營運與降低部署複雜度的同時,協助企業實現實際業務成果。全新服務亦可補足企業技術能力落差,支援 AI 從實驗階段擴展至正式生產環境。 ● Knowledge Assistant 為設計、部署與管理智慧助理提供基礎架構,並與 Aible、 Cohere’s North 與 NVIDIA等產業領導者合作。 ● ClearML 藍圖透過安全且高效率的 GPU 叢集管理與工作負載排程機制,提升企業代理式 AI(Agentic AI)環境的運作效率。 ● 代理式 AI 平台與 Cohere’s North、DataRobot 及 NVIDIA 合作,讓企業能透過協調、治理與可觀測性機制,安全地部署並管理 AI 代理。 ● Dell Accelerator Services for Agentic AI 提供整合式能力,支援企業在任何階段推動 AI 發展,從實驗與驗證到企業級整合,協助縮小技能缺口並降低技術複雜度。 簡化 AI 基礎架構部署: ● Dell AI Factory with NVIDIA 模組化架構透過降低部署複雜度、因應快速演進的技術變化並支援持續導入,為企業 AI 提供清晰且簡化的發展路徑。整合式自動化機制使企業能以適當規模開始部署,並隨需求變化靈活擴展。 戴爾科技集團董事長暨執行長 Michael Dell 表示:「兩年前,企業關心的是如何取得 AI 技術;而今天,他們關心的是如何讓資料具備 AI 就緒能力、如何大規模落實 AI 應用,以及如何證明 ROI。Dell AI Factory with NVIDIA 正是為了回應這三個問題而生。我們從一開始就以值得信賴的顧問角色參與其中,協助客戶規劃並推動完整的 AI 旅程——從將原始資料轉化為 AI 動能、完成部署,到最終實現可量化的商業成果。」 NVIDIA 創辦人暨執行長黃仁勳表示:「AI 基礎架構正在各地快速建設——每一間企業都將以 AI 為動力,每一個國家也都將打造自己的 AI 基礎架構——而這需要整合式資料平台、可擴展的基礎架構以及部署專業能力。戴爾科技正是以 NVIDIA 技術為核心,可同時提供這三項能力的供應商。Dell AI Factory with NVIDIA 為 AI 各個階段提供經驗證的基礎架構藍圖,為下一個產業時代提供發展動能。」 更多資源 ● 進一步了解 Dell AI Data Platform with NVIDIA。 ● 在 X 與 LinkedIn 上關注戴爾科技 →更多的【PCDIY!業界新聞】: →更多的【PCDIY!賣場情報】: →更多的【PCDIY!科技情報】: →更多的【IT資訊新聞】: →更多的【ITMan!資訊經理人】: →更多的【PCDIY!八卦】: (01)光華商場的新危機,淘寶網帶來的跨境電商價格戰![http://www.pcdiy.com.tw/detail/5232]
-
Nutanix 推出 Nutanix Agentic AI:全堆疊軟體解決方案,釋放企業
• 專為代理式 AI 應用程式提供高效能、合規性與安全保障,並協助企業降低總 Token 成本 • 賦能企業基礎架構與平台團隊,使其能更輕鬆地建置、擴展與營運 AI 工廠 • 為開發團隊提供一套與 NVIDIA AI Enterprise 整合的豐富 AI PaaS 服務,以加速代理式 AI 工作負載的部署 混合多雲端運算領導者 NutanixⓇ(納斯達克交易所代號:NTNX)今(17)日宣布推出 Nutanix Agentic AI 解決方案。這是一套專為協助客戶加速採用代理式 AI,推動企業轉型而打造的完整軟體堆疊解決方案。 隨著代理式 AI 的興起,企業導入 AI 已來到關鍵轉折點。成功的關鍵不再是模型本身或單一 AI 代理的建構,而是如何管理能夠安全地大規模運行數千個 AI 代理所需的複雜基礎架構。企業的基礎架構與平台團隊需要更完善的解決方案,以建置並營運 AI 工廠(AI Factory),同時在共享資源的情況下,確保最佳效能、安全性以及符合資料主權等合規要求。此外,資料科學家與代理式 AI 開發者也期望能夠輕鬆取得相關工具與服務,以執行與微調模型、建立 AI 代理,並安全地與企業資料進行連結。 Nutanix 產品管理執行副總裁 Thomas Cornely 表示:「與專為執行『單一大型任務』而最佳化模型訓練 AI 基礎架構不同,實際投入生產環境的代理式 AI 基礎架構,必須能夠支援數千個 AI 服務、代理,以及多位使用者與開發者同時運作的高擴展性與快速變化需求。Nutanix Agentic AI 透過延伸 AHV 虛擬機管理程式(Hypervisor)、虛擬化 Flow Networking、Nutanix Kubernetes Platform(NKP)與 Nutanix Enterprise AI(NAI)解決方案,為企業 AI 工廠提供雲端營運模式,使基礎架構與平台團隊能夠更簡單地建置、營運與治理 AI 工廠,同時為代理式 AI 開發者提供所需的效能、豐富的模型與 AI 平台服務。」 此解決方案在 Agent Builder 層與 NAI 進行整合,並可協調經 NVIDIA 認證的 AI 工廠生態系統,以支援多種部署配置。透過完整的基礎架構編排與安全軟體,結合 AI 平台即服務(PaaS)與模型即服務(MaaS),該方案可在動態、多使用者的 AI 環境中,協助資料科學家與代理式 AI 開發者建置、執行與保護代理式 AI 應用。透過整合 NVIDIA Agent Toolkit(包含 NVIDIA OpenShell 開放執行環境),Nutanix 與 NVIDIA 亦正攜手為企業打造自主代理(Autonomous Agents)運行的基礎架構。 Nutanix Agentic AI 解決方案能降低系統複雜性、提供最佳化的效能與安全性,並透過以下功能設計協助企業降低並預測 Token 成本: 1. 代理式 AI 服務與 Kubernetes 平台:此 AI PaaS 與 Kubernetes 原生軟體層包含以下功能: a. 進階 AI Gateway 與 MaaS:NAI 最新 2.6 版本新增 AI Gateway 服務,可對雲端託管與私有 LLMs 進行統一的政策控管。同時新增模型上下文協定(MCP)伺服器與模型微調(Fine-Tuning) 支援,進一步擴展既有的 MaaS 能力,使 AI 代理能夠安全地連接企業工具與資料來源。此外,NAI 亦新增對 NVIDIA Nemotron 開放式 AI 模型系列的支援,包含資料集與訓練工具,協助開發者打造具備推理能力、可安全存取工具,並能自主完成複雜多步驟任務的代理式 AI 系統。 b. 具備豐富 AI 工具庫的開放式 Kubernetes 平台:Nutanix 透過在其符合 CNCF 標準的 NKP 上擴展豐富的預建開放式 AI 開發工具庫,包括 Notebooks、向量資料庫、機器學習營運(MLOps)工作流程引擎、代理式 AI 框架,從而簡化邁向代理式 AI 的路徑。由於平台已與 NVIDIA AI Enterprise 完整整合,開發者可立即部署 NVIDIA NIM 微服務(包含 Nemotron),以加速生產環境中高效能 AI 應用程式的開發與部署。 2. 基礎架構最佳化與安全性:在 NVIDIA 拓撲感知 AHV 的早期存取版本中,Nutanix AHV 虛擬機管理程式已進一步強化,可自動最佳化 GPU 高密度伺服器上虛擬機(VM)的實體資源配置,以提升整體效能。同時,Nutanix 虛擬化 Flow Networking 亦新增支援將網路資料平面卸載至 NVIDIA BlueField,在提供高效能網路連線的同時,降低主機 CPU 與記憶體的消耗。透過這些強化功能,代理式 AI 工作負載可在虛擬機架構下獲得完整的優勢,包括工作負載與租戶隔離、Day-2 維運能力,以及基礎架構韌性,在確保最佳效能、安全性與資源利用率的同時,有助於降低每個 Token 的運算成本。 3. AI 基礎資料服務:代理式 AI 應用需要強大的基礎資料服務作為支撐。作為基於 NVIDIA AI 資料平台參考架構所打造的解決方案,Nutanix Unified Storage(NUS)可為數千個 GPU 客戶端提供線性擴展的讀寫效能。透過提供用於 KV Cache 卸載的高容量儲存層,並支援 RDMA 上 S3 與 NFS,Nutanix 打造可擴展且低延遲的資料架構,能最大化所有企業 AI 工作負載的 GPU 效能。 Nutanix Agentic AI 解決方案透過 NVIDIA 認證的 AI 工廠架構,協助企業將代理式 AI 應用落地並加速導入。企業客戶可在 Cisco、Dell 與 Supermicro 的硬體平台上部署 AI 工廠,並由 Nutanix 與 NVIDIA 共同完成技術驗證與支援。 分析師觀點 NAND Research 首席分析師 Steve McDowell 表示:「Nutanix 的 Agentic AI 技術堆疊消除了許多可能拖慢企業 AI 專案的基礎架構運行問題。透過整合從最上層的 MaaS、建立在標準化 Kubernetes 發行版的 AI 平台,到具備 GPU 感知能力的虛擬機管理程式(Hypervisor)與資料處理器(DPU)加速網路等各層技術,企業可獲得更一致且完整的 AI 技術堆疊,進而打造兼具高效能與安全性的 AI 工廠,同時降低每個 Token 的成本。」 NVIDIA 企業 AI 平台副總裁 Justin Boitano 表示:「代理式 AI 需要能安全管理數千個 AI 代理,且須具備企業級規模。Nutanix 整合 NVIDIA Agent Toolkit 與開放式 Nemotron 模型,為企業提供建構與高效營運 AI 工廠的基礎。隨著 AI 代理持續演進,我們也正攜手推動企業自主 AI 的規模化發展。」 Dell Technologies ISG 產品管理資深副總裁 Travis Vigil 表示:「企業 AI 的發展正從實驗階段邁向大規模生產,因此需要能支援從模型訓練、推論到資料管理等完整 AI 工廠流程的基礎架構。Dell 領先的 AI 基礎架構支援 Nutanix 簡化 AI 營運並最大化效能與安全性的願景。我們攜手協助企業將重心放在打造能創造實際商業價值的 AI 應用,而不是管理複雜的營運架構。」 Cisco Compute 資深副總裁暨總經理 Jeremy Foster 表示:「企業 AI 的討論已不僅是更好的模型,而是營運速度與信任,也就是團隊能多快且多安全地從實驗走向大規模生產。透過將 Cisco 基礎架構與 Nutanix 解決方案整合,我們正在消除複雜硬體編排與快速應用部署之間的界線,並透過具拓撲感知能力的智慧與安全機制,最佳化整個生態系統中的每一項資源。我們共同打造一個即開即用、無摩擦的環境,使企業能以符合其營運需求的韌性、安全性與生命週期一致性來部署 AI 工廠。」 Lenovo 基礎架構解決方案集團副總裁 Scott Patti 表示:「讓 AI 普及化意味著讓企業 AI 更容易部署,並能從邊緣、核心到完整的 AI 工廠環境實現可擴展性。Lenovo 的 Hybrid AI 產品組合使客戶能以更快速且更有信心的方式,將 AI 從實驗階段推進至實際生產環境。透過與 Nutanix 和 NVIDIA 的合作,我們共同打造 Lenovo ThinkAgile HX AI 解決方案,提供整合運算、GPU、網路與資料的統一全堆疊基礎架構,支援混合環境中的 AI 部署。透過降低營運複雜度並簡化部署流程,我們協助企業更有效率地建置與擴展 AI 工廠,加速價值實現,同時最佳化效能、成本與 Token 使用效率。」 TCS 全球合作夥伴生態系與聯盟負責人 Rajnikant Gupta 表示:「我們很高興與 Nutanix 合作,透過簡化營運、強化安全性並提升使用者體驗,協助客戶釋放 AI 的全部潛能。透過將 Nutanix 全堆疊 AI 解決方案與 TCS 在 AI 驅動轉型方面的深厚專業結合,我們協助企業加速導入代理式 AI,以建立長期的競爭優勢。我們強大的專業人才與合作夥伴生態系,也持續為 AI 創新與客戶成功樹立新的標竿。」 Supermicro 首席增長官 Cenly Chen 表示:「透過與 Nutanix 的合作,我們能夠提供業界運算密度最高且能源效率最佳的 AI 工廠基礎架構。我們採用液冷式資料中心模組化解決方案,結合運行於 Supermicro 機架級系統上的 Nutanix 智慧軟體層,企業可更快速部署 AI 工廠,並實現業界最快的上線速度與具永續性的 Token 運算效率。」 Everpure AI 副總裁 Kaycee Lai 表示:「將 Everpure 領先業界的儲存與資料管理平台和 Nutanix 針對 NVIDIA 最佳化的 AHV 基礎架構整合,可打造統一的 AI 資料架構,以解決代理式 AI 時代的數據引力挑戰。透過消除 AI 堆疊中的瓶頸,我們確保企業基礎架構團隊不再需要在大規模擴展與營運簡化之間做出取捨。我們攜手提供高效能、低延遲的基礎架構,以驅動 AI 工廠生態系中最具挑戰性的 RAG 管線與高併發推論工作負載。」 Accenture 全球基礎架構工程 AI 與高效能運算負責人 Dave Malik 表示:「Accenture 協助客戶現代化其平台策略,打造能重新塑造營運模式並支援大規模代理式 AI 的架構。Nutanix 在 Agentic AI 解決方案中所提供的能力,可協助企業建立代理式 AI 架構,打造跨資料與平台整合的 AI 介面,並重新設計流程,使營運更加整合且高效率。」 Fujitsu Limited 執行長暨高級執行副總裁暨平台事業部負責人 Kazushi Koga 表示:「我們的客戶正在尋找能簡化數千個 AI 代理與運作管理的方法,同時避免成本與營運負擔大幅增加。Nutanix Agentic AI 解決方案運行於 Fujitsu 經 NVIDIA 認證的基礎架構上,並結合 Fujitsu 針對資料主權與關鍵任務環境所開發的技術,能提供以 AI 驅動為核心的企業願景化為現實所需的效能與資源最佳化。我們很榮幸能與 Nutanix 攜手合作,提供新一代 AI 工廠能力。」 →更多的【PCDIY!業界新聞】: →更多的【PCDIY!賣場情報】: →更多的【PCDIY!科技情報】: →更多的【IT資訊新聞】: →更多的【ITMan!資訊經理人】: →更多的【PCDIY!八卦】: (01)光華商場的新危機,淘寶網帶來的跨境電商價格戰![http://www.pcdiy.com.tw/detail/5232]
-
Facebook 強化原創內容獎勵機制 移除超過 2,000 萬個假冒創作者的帳號 為創作者推出仿冒內容檢舉工具
• Facebook 鼓勵原創內容,藉由提升作品觸及率與營利收益,並同步調降非原創內容的推薦權重,讓優質原創作品獲得更多曝光。 • Facebook 更新原創性內容準則,明確定義作品在動態消息與 Reels 獲得曝光及推薦的標準,協助創作者了解如何提升內容的能見度。 • Facebook 正測試內容保護工具的進階功能,協助創作者快速掌握潛在的冒名行為,並簡化檢舉流程。 過去一年,Facebook 持續打擊垃圾內容,並限制抄襲與冒名者擠壓原創空間,同時提升 Facebook 動態消息與 Reels 的內容關聯性,藉此鼓勵創作者的原創內容,Facebook 也強調在平台上發布原創內容的創作者將獲得更多支持與獎勵。 此外,Facebook 已更新原創性內容準則,明確定義「原創內容」的標準,並陸續推出全新工具,協助創作者檢舉潛在冒名者以保護其作品。這些措施賦予創作者更高的內容主控權,幫助拓展粉絲群,優化 Facebook 整體的社群體驗。 Facebook 大量移除假冒創作者的帳號 原創 Reels 的觀看次數與時數翻倍成長 Facebook 在動態消息與 Reels 中優先推薦原創內容,同時降低非原創內容的觸及。這些努力已展現顯著成效:2025 年下半年,Facebook 原創 Reels 的觀看次數與時長,相較 2024 年同期呈現接近翻倍成長。隨著原創內容在平台上的散播規模持續擴大,原創創作者在 Facebook 獲得的收益機會也隨之增加。 此外,Meta 持續打擊假冒創作者的行為,在 2025 年已移除超過 2,000 萬個假冒大型內容創作者的帳號,此舉成功讓與大型創作者相關的冒名檢舉量下降 33%。 Facebook 更新原創性內容準則,更明確地定義「原創內容」標準,鼓勵創作者產出優質內容,並優化推薦機制,讓原創內容更容易被看見。具體規範包括: • 凡是由創作者或其個人檔案與粉絲專頁擁有者親自拍攝或製作的內容,即被視為 Facebook 上的原創內容。 • 針對 Reels 適度融入第三方內容的情形(如混搭、疊壓),若創作者現身影片中並帶入全新資訊、觀點分析或對原有敘事有實質性的延伸與改編,則該影片將被視為原創內容。然而,若內容僅是單純拍攝觀看後反應的影片、拼接多段影片或對既有畫面加上旁白,而未增添任何實質新的元素,則會視為非原創內容。針對此類作品,Facebook 將會適當地在動態消息與 Reels 中調降排序。 • 重複或僅對他人貼文稍作編輯的內容,將被視為非原創內容並降低排序。這包含重新上傳自己未參與創作的貼文或僅添加邊框、插入字幕、調整速度等微幅修改。關於更多非原創行為的認定,請參考企業商家使用說明。 • 重複或僅對他人貼文做輕微編輯的內容,將被視為非原創並降權。這包括重新上傳自己未參與創作的貼文,或僅做低價值修改,例如加邊框、插入字幕、調整 Reel 速度等,以及上述和說明中心中提及的其他行為。 當創作者發揮創意轉化內容時,影片將有機會在 Reels 與動態消息中被推薦,進而獲得更多機會將內容遞送出去給更多觀眾。但若創作者持續發布多數為非原創的內容,Meta 極可能將該帳號的內容不列入推薦範圍並降低排序,甚至失去營利資格。若對原創內容的判定結果有異議,創作者可以隨時提出申訴,Meta 亦將持續精進系統執行的精準度。欲瞭解更多申訴流程,請參閱此處。 Facebook 不僅支持上的原創內容,更持續開發全新工具,協助創作者保護作品並拓展影響力。去年,Facebook 推出內容保護功能,自動保護創作者在平台上的原創 Reels 影片,當偵測到與這些影片相符的內容時,原創作者也能在第一時間採取行動,追蹤、封鎖或撤銷冒名影片。目前,Facebook 也正進階測試此項功能,未來將能偵測潛在冒名行為,讓創作者能在同一介面輕鬆提交檢舉。這些新功能將陸續開放給使用內容保護功能的創作者 。 創作者可於專業主控板中查詢是否已獲得內容保護工具使用權,或在此申請。 Meta 目標將 Facebook 打造成為原創內容蓬勃發展的園地,讓原創作者的心血及創意可獲得回報。透過更明確的原創性內容準則與內容保護工具,真實且具特色的創作者聲音將更容易被看見並脫穎而出。 →更多的【PCDIY!業界新聞】: →更多的【PCDIY!賣場情報】: →更多的【PCDIY!科技情報】: →更多的【IT資訊新聞】: →更多的【ITMan!資訊經理人】: →更多的【PCDIY!八卦】: (01)光華商場的新危機,淘寶網帶來的跨境電商價格戰![http://www.pcdiy.com.tw/detail/5232]
-
Epson 與 Manz 合作研發先進設備,開啟半導體數位製程新篇章
以高精度 MEMS(微機電系統)製造技術與 PrecisionCore 噴頭聞名的精工愛普生公司(SEIKO EPSON CORP., 以下簡稱Epson),與全球高精密設備製造領導者 Manz 宣布展開策略性合作,攜手推動印刷電子在半導體產業中的創新應用,實現半導體金屬化製程中的高效生產與可擴展的解決方案。此次合作結合了 Epson 世界領先的噴墨印刷技術,以及 Manz 在高精密設備製造與智慧軟體開發方面的專業,為半導體製造業注入全新動能。合作涵蓋實驗室驗證設備與高效率量產解決方案的開發,並於台灣桃園設立全新研發中心,為全球市場提供創新製造技術,協助客戶推進下一代印刷電子應用。 本次合作,Epson 以獨家的 PrecisionCore 精點微噴噴頭印刷技術將功能性材料精準塗佈在如聚醯亞胺(Polyimide / PI)、環氧樹脂薄膜(Ajinomoto Build-up Film / ABF)、固態模封材料(Epoxy Molding Compound / EMC)、矽晶圓(Silicon Wafers)與玻璃等基板上,省去光罩製程,直接形成精密電路結構。這項技術大幅簡化了金屬化製程的複雜度,相較於傳統製程,能顯著提升材料使用效率、環境永續性、製程良率與生產彈性。 雙方攜手開發的工業級噴墨印刷設備更支援 3D 列印,能製造低溫金屬結構,突破傳統金屬熔點限制,拓展半導體封裝材料的應用範圍。因應產業朝向方形基板發展,這套設備也支援玻璃通孔(Through Glass Via / TGV)金屬化與面板級封裝(Panel-level Packaging)重佈線層(Redistribution Layer / RDL)佈線,進一步提升製程效率與產品可靠度。 Manz Asia 總經理林峻生表示:「在台灣設立研發中心,能強化我們在即時測試、製程驗證與生產優化方面的能力,有助於縮短技術導入週期並提升市場競爭力,也讓我們更有信心加速噴墨列印在半導體產業的落地。」 Epson 執行董事暨噴頭事業部總經理福田俊也(Shunya Fukuda)指出,採用噴墨技術的數位積層製造,有望成為推動半導體封裝演進的關鍵技術基礎。Epson 具備高精度墨滴控制技術,以及在顯示器與印刷電子領域累積的量產經驗,將與 Manz 共同打造從實驗室到量產皆能無縫銜接的製造平台,並期望為半導體產業的永續發展做出貢獻。 本次雙方合作研發中心,提供專為半導體金屬化製程量身打造的完整噴墨印刷解決方案,從實驗室驗證到量產機型、提供客製化製程驗證與樣品列印服務,到擴大全球市場採用,並加速整合噴墨印刷技術在半導體製程的一條龍服務。 本次合作是邁向更高效率、更具彈性與永續的半導體製造流程的重要里程碑。隨著數位印刷技術持續演進,Epson 與 Manz 合作開發相關設備,致力於推動產業轉型,提供具全球競爭力的先進製造解決方案。 ● RDJet100:專為驗證半導體先進封裝金屬化製程中,新型功能性墨水與基板的實驗室設備,搭載 Epson 噴墨印刷技術。 ● SDC系列:針對半導體前段與後段製程的工業生產設備,支援晶圓與面板基板多元製程需求。 →更多的【PCDIY!業界新聞】: →更多的【PCDIY!賣場情報】: →更多的【PCDIY!科技情報】: →更多的【IT資訊新聞】: →更多的【ITMan!資訊經理人】: →更多的【PCDIY!八卦】: (01)光華商場的新危機,淘寶網帶來的跨境電商價格戰![http://www.pcdiy.com.tw/detail/5232]
-
NVIDIA 推出專為代理型 AI 打造的 Vera CPU NVIDIA Vera CPU 在大規模資料處理、AI 訓練與代理型 AI 推論方面,提供最高效能與能效
● NVIDIA Vera CPU 的效率是傳統 CPU 的兩倍,而運算速度則可提升 50%。 ● 與 NVIDIA 合作部署 Vera CPU 的客戶包括阿里巴巴、字節跳動、Meta 與 Oracle Cloud Infrastructure,以及 CoreWeave、Lambda、Nebius 與 Nscale。 ● 已開始採用 Vera CPU 的製造合作夥伴包括戴爾科技集團、慧與科技、聯想集團與美超微,以及華碩、仁寶、鴻海科技集團、技嘉科技、和碩聯合科技、雲達科技、緯創和緯穎。 NVIDIA 今日推出 NVIDIA Vera CPU。這是全球首款專為代理型人工智慧(AI)與強化學習時代打造的處理器,其效率是傳統機架級 CPU 的兩倍,運算速度提升 50%。 隨著推理與代理型 AI 持續發展,規模、效能與成本日益取決於支撐相關模型的基礎設施。這些模型需要規劃任務、執行工具、與資料互動、執行程式碼並驗證結果。 NVIDIA Vera CPU 延續了 NVIDIA Grace™ CPU 的成功,使各種規模與各產業的組織都能建構 AI 工廠,並在大規模環境中釋放代理型 AI 的能力。具備最高的單執行緒效能與每核心頻寬,Vera 代表了一種全新的 CPU 類別,可為大規模 AI 服務提供更高的AI資料輸送量、回應速度與效率,支援如程式碼助理等大規模 AI 服務,以及消費型與企業型 AI 代理。 與 NVIDIA 合作部署 Vera 的領先超大規模雲端服務商包括阿里巴巴、CoreWeave、Meta 與 Oracle Cloud Infrastructure。此外,戴爾科技集團、慧與科技、聯想集團與美超微等全球系統製造商也正在以此技術打造伺服器設計。這種廣泛採用確立了Vera 成為開發者、新創公司、公私部門機構及企業最重要 AI 工作負載的新 CPU標準,並有助於推動 AI 的普及化與加速創新。 NVIDIA 創辦人暨執行長黃仁勳表示:「Vera 在 AI 發展的轉捩點問世。隨著智慧變得更具代理能力,能夠進行推理與行動,負責協調與運行這些工作的系統重要性也隨之提升。CPU 不再只是支援模型,而是驅動模型運作。透過突破性的效能與能效,Vera 讓 AI 系統能以更快速度思考並擴展到更大的規模。」 NVIDIA 宣布推出全新的 Vera CPU 機架,整合 256 顆液冷式 Vera CPU,可同時支援超過 22,500 個並行的 CPU 執行環境,且每個環境都能以完整效能獨立運行。透過此架構,AI 工廠能夠在單一機櫃中快速部署並擴展至數萬個同時運行的實例與代理型 AI 工具。 全新 Vera 機架採用NVIDIA MGX™ 模組化參考架構打造,並獲全球 80 家生態系合作夥伴支持。 作為 NVIDIA Vera Rubin NVL72 平台的一部分,Vera CPU 可透過 NVIDIA NVLink™-C2C 互連技術與 NVIDIA GPU 配對使用,提供 1.8 TB/s 的一致性頻寬(相當於 PCIe Gen 6 頻寬的 7 倍),以實現 CPU 與 GPU 之間的高速資料共享。此外,NVIDIA 也推出全新的參考設計,使用Vera 作為 NVIDIA HGX™ Rubin NVL8 系統的主機 CPU,負責協調GPU 加速工作負載所需的資料傳輸與系統控制。 Vera 系統夥伴同時提供雙插槽與單插槽 CPU 伺服器配置,適合用於強化學習、代理型推論、資料處理、工作流程協調、儲存管理、雲端應用與高效能運算等工作負載。 在所有配置中,Vera系統都可與 NVIDIA ConnectX® SuperNIC 網路卡及 NVIDIA BlueField® DPU 整合,以提供加速的網路、儲存與安全功能,這些能力對代理型 AI 至關重要。這能讓客戶根據特定工作負載加以最佳化,同時在整個 NVIDIA 平台上維持單一的軟體堆疊。 透過結合高效能且高能效的 CPU 核心、高頻寬記憶體子系統及第二代 NVIDIA Scalable Coherency Fabric,Vera 能在代理型 AI 與強化學習常見的高利用率環境下,提供更快速的代理回應能力。 Vera 搭載 88 個 NVIDIA 自行設計的 Olympus 核心,為編譯器、執行時引擎、分析流程、代理型工具與協調服務提供高效能。每個核心均可透過 NVIDIA 空間多執行緒技術同時執行兩項任務,提供穩定且可預測的效能,非常適合需要同時執行大量工作的多租戶 AI 工廠。 為了進一步提升能效,Vera 引進第二代 NVIDIA 低功耗記憶體子系統,採用 LPDDR5X 記憶體並提供最高 1.2 TB/s 頻寬,相較於一般通用型 CPU,頻寬提升至兩倍,同時功耗僅為一半。 AI 原生軟體開發領域的創新者 Cursor,正採用 NVIDIA Vera 來提升其 AI 程式碼撰寫代理的效能。 Cursor 共同創辦人暨執行長 Michael Truell 表示:「我們很高興能運用 NVIDIA Vera CPU 來提升整體資料輸送量與效率,藉此為客戶提供更快、反應更靈敏的程式碼撰寫代理體驗。」 領先的串流資料與 AI 平台 Redpanda 正在使用 Vera,大幅提升系統效能。 Redpanda 創辦人暨執行長 Alex Gallego 表示:「Redpanda 最近測試了在 NVIDIA Vera 上執行 Apache Kafka 相容工作負載,發現其效能遠高於我們曾測試過的其他系統,且延遲最多可降低 5.5 倍。Vera 代表 CPU 架構的一個新方向,具備更大的記憶體容量與更低的每核心運算負擔,使我們的客戶能將即時串流工作負載擴展至前所未有的規模,並釋放新的 AI 與代理型 AI 應用。」 計劃部署 Vera CPU 的國家級實驗室包括萊布尼茲超級運算中心、洛斯阿拉莫斯國家實驗室、勞倫斯柏克萊國家實驗室旗下的國家能源研究科學運算中心,以及德州先進運算中心(TACC)。 德州先進運算中心高效能運算總監 John Cazes 表示:「在德州先進運算中心,我們最近測試了 NVIDIA 的 Vera CPU 平台,為部署該技術至我們即將推出的 Horizon 系統做準備。當我們執行六個科學應用時,看到了令人印象深刻的初步成果。Vera 的每核心效能與記憶體頻寬代表著科學運算的一大躍進,我們期待今年稍晚在 Horizon 系統上為 CPU 使用者提供基於 Vera 的運算節點。」 計劃部署 Vera CPU 的主要雲端服務供應商包括阿里巴巴、字節跳動、Cloudflare、CoreWeave、Crusoe、Lambda、Nebius、Nscale、Oracle Cloud Infrastructure、Together.AI 與 Vultr。 採用 Vera CPU 的主要基礎架構供應商包含 Aivres、華擎科技、華碩、仁寶、思科、戴爾科技集團、鴻海科技集團、技嘉科技、慧與科技、Hyve、英業達、聯想集團、神達、微星、和碩聯合科技、雲達科技、美超微、緯創與緯穎。 →更多的【PCDIY!業界新聞】: →更多的【PCDIY!賣場情報】: →更多的【PCDIY!科技情報】: →更多的【IT資訊新聞】: →更多的【ITMan!資訊經理人】: →更多的【PCDIY!八卦】: (01)光華商場的新危機,淘寶網帶來的跨境電商價格戰![http://www.pcdiy.com.tw/detail/5232]
-
NVIDIA Vera Rubin 開啟代理型 AI 新前沿 七款全新晶片全面量產,助力打造全球規模最大的 AI 工廠,其可配置的 AI 基礎架構 針對 AI 各階段進行最佳化,從預訓練、後訓練與測試階段擴展到代理型推論皆涵蓋其中
NVIDIA Vera Rubin 平台正開啟 AI 的下一個前沿,包含: ● Vera Rubin NVL72 GPU 機架 ● Vera CPU 機架 ● NVIDIA Groq 3 LPX 推論加速器機架 ● NVIDIA BlueField-4 STX 儲存機架 ●NVIDIA Spectrum-6 SPX 乙太網路機架 【2026年3月16日,美國聖荷西訊】NVIDIA 今日宣布,NVIDIA Vera Rubin 平台正開啟代理型人工智慧(AI)發展的下一個前沿,目前七款新晶片已全面進入量產,以擴展全球規模最大的 AI 工廠。 該平台整合 NVIDIA Vera CPU、NVIDIA Rubin GPU、NVIDIA NVLink 6 交換器、NVIDIA ConnectX®-9 SuperNIC、NVIDIA BlueField®-4 DPU 與 NVIDIA Spectrum™-6 乙太網路交換器,以及全新整合的 NVIDIA Groq 3 LPU。這些晶片目標透過協同運作來組成一台強大的 AI 超級電腦,驅動 AI 的各個階段,從大規模預訓練、後訓練、測試階段擴展,到即時的代理型推論皆涵蓋其中。 NVIDIA 創辦人暨執行長黃仁勳表示:「Vera Rubin 代表跨世代的躍進,七款突破性晶片、五組機架、一台巨型超級電腦,旨在驅動 AI 的每一個階段。代理型 AI 的關鍵轉捩點已然來臨,且由 Vera Rubin 為史上最大規模的 AI 基礎設施建設拉開序幕。」 Anthropic 執行長暨共同創辦人 Dario Amodei 表示:「企業與開發者正將 Claude 應用於日益複雜的推理、代理型工作流程及關鍵任務決策,而這需要能夠與時俱進的基礎設施。NVIDIA 的 Vera Rubin 平台為我們提供了所需的運算、網路及系統設計,讓我們在持續提供服務的同時,也能提升客戶所仰賴的安全性與可靠性。」 OpenAI 執行長 Sam Altman 表示:「NVIDIA 的基礎設施是我們持續推進 AI 前沿的重要基礎。有了 NVIDIA Vera Rubin,我們將能大規模運行更加強大的模型與代理,並為數億用戶提供更快速且更可靠的系統。」 AI 基礎設施正迅速演進,從獨立晶片與單一伺服器,發展到完全整合的機架級系統、POD 級部署、AI 工廠與主權 AI。這些進展正帶來顯著的效能提升,為各產業、各規模的組織,從新創公司和中型企業,到公私合作機構與大型企業,帶來更高的成本效益。這也同時有助於普及 AI 技術,並提升能效,以驅動全球最具挑戰性的工作負載。 透過運算、網路和儲存的深度協同設計,並在擁有全球供應鏈的 80 多家 NVIDIA MGX 生態系合作夥伴的支持下,NVIDIA Vera Rubin 提供了最全面的 NVIDIA POD 級平台,這是一台超級電腦,其中多個專為 AI 打造的機架協同運作,形成一個龐大且一致的系統。 Vera Rubin NVL72 整合 72 顆 Rubin GPU 與 36 顆 Vera CPU,透過 NVLink 6 進行互連,並搭配 ConnectX-9 SuperNIC 與 BlueField-4 DPU,帶來突破性的運算效率。該系統在訓練大型混合專家模型時,所需 GPU 數量僅為NVIDIA Blackwell 平台的四分之一,且每瓦的推論資料輸送量最高可提升 10 倍,每個詞元成本僅為先前的十分之一。 NVL72 專為全球超大規模 AI 工廠打造,可透過 NVIDIA Quantum-X800 InfiniBand 與 Spectrum-X 乙太網路無縫擴展,在大型 GPU 叢集上維持高利用率,同時降低訓練時間與總擁有成本(TCO)。 強化學習與代理型 AI 工作負載需要大量基於 CPU 的環境,以測試並驗證在 GPU 系統上運行的模型所產生的結果。 NVIDIA Vera CPU 機架提供高密度液冷基礎設施,採用 NVIDIA MGX 架構並整合最多 256 顆 Vera CPU,提供可擴展且節能的運算能力,並具備世界級的單執行緒效能,從而實現大規模的代理型 AI。 Vera CPU 機架與 Spectrum-X 乙太網路整合,可在整個 AI 工廠內保持 CPU 環境同步。與 GPU 運算機架搭配後,可為大規模代理型 AI 與強化學習提供 CPU 運算基礎。其中 Vera 的運算效率是傳統 CPU 的兩倍,速度則提升 50%。 NVIDIA Groq 3 LPX 標誌著加速運算的重要里程碑。專為代理型系統的低延遲和大型情境需求所設計,LPX與 Vera Rubin 結合了兩款處理器的極致效能,使兆級參數模型每兆瓦的推論資料輸送量最高可提升 35 倍,同時創造出多達 10 倍的營收機會。 在大規模部署下,一組 LPU 叢集可作為巨型的單一處理器運作,實現快速且可預測的推論加速。LPX 配備 256 顆 LPU 處理器,並擁有 128GB 晶片內 SRAM 及 640 TB/s 的擴展頻寬。當與 Vera Rubin NVL72 系統搭配部署時,Rubin GPU 與 LPU 會針對每個輸出詞元,共同運算 AI 模型的每一層,從而提升解碼(decode)效能。 針對兆級參數模型和百萬詞元的情境進行最佳化的 LPX 協同設計架構與 Vera Rubin 進行搭配,可在功耗、記憶體及運算方面實現極致效率。更高的每瓦資料輸送量和更優異的詞元效能,開啟了全新層級的超高端、兆級參數與百萬級情境推論,為所有 AI 供應商拓展營收機會。LPX 採全液冷設計,並建立於 MGX 基礎架構之上,可無縫整合至新一代 Vera Rubin AI 工廠中,預計將於今年下半年推出。 NVIDIA BlueField-4 STX 機架級系統是一套 AI 原生的儲存架構,可將 GPU 記憶體無縫延伸至整個 POD。由整合 NVIDIA Vera CPU 與 NVIDIA ConnectX-9 SuperNIC 的 BlueField-4 驅動,STX 提供高頻寬的共享儲存層,針對大型語言模型(LLM)與代理型 AI 工作流程產生的大量 KV 快取資料,進行最佳化的儲存與讀取。 NVIDIA DOCA Memos™ 是全新的 DOCA 框架,可大幅強化 BlueField-4 儲存的能力,並支援專用的 KV 快取儲存處理。與通用儲存架構相比,可將推論時的資料輸送量提升高達 5 倍,同時顯著提高能源效率。其成果在於實現整個 POD 層級的情境共享能力,不僅能加速 AI 代理的多輪互動,亦可擴展 AI 服務規模,並提升整體基礎設施的利用率。 Mistral AI 共同創辦人暨技術長 Timothée Lacroix 表示:「NVIDIA BlueField-4 STX 機架級情境記憶體儲存系統將帶來關鍵的效能提升,這對於我們大規模擴展代理型 AI 成果至關重要。透過提供專為 AI 代理記憶體打造的全新儲存層級,STX 具備絕佳優勢,能確保我們的模型在對大量資料集進行推理時,仍能維持一致性與速度。」 NVIDIA Spectrum-6 SPX 乙太網路機架 Spectrum-6 SPX 乙太網路機架專為加速 AI 工廠的東西向流量而設計,可搭配 Spectrum-X 乙太網路或 NVIDIA Quantum-X800 InfiniBand 交換器,並大規模提供低延遲且高輸送量的機架間連線能力。 採用共同封裝光學元件的 Spectrum-X 乙太網路光子技術,相較於傳統可插拔式收發器,在光學方面的能效提高 5 倍,韌性也同步提升 10 倍。 NVIDIA 與超過 200 家資料中心基礎設施合作夥伴共同宣布推出適用於 Vera Rubin 的 NVIDIA DSX 平台。該平台包含 DSX Max-Q,可實現整個 AI 工廠的動態供電配置,使固定功率的資料中心能部署多出 30% 的 AI 基礎設施。全新的 DSX Flex 軟體讓 AI 工廠成為具備電網彈性的資產,釋放出 100 百萬瓩的閒置電網電力。 NVIDIA 亦同步發表 Vera Rubin DSX AI 工廠參考設計,這是一套專為協同設計 AI 基礎設施打造的藍圖,以最大化每瓦的詞元產出與整體有效輸送量,同時提升系統韌性並加速 AI 系統導入生產環境。 透過緊密整合運算、網路、儲存、電力與散熱系統,該架構可提升能效,確保 AI 工廠在持續的高強度工作負載下,仍能穩定擴展並維持最大化的正常運行時間。 基於 Vera Rubin 平台的產品將於今年下半年開始由合作夥伴推出,包括主要雲端服務供應商 Amazon Web Services、Google Cloud、Microsoft Azure 與 Oracle Cloud Infrastructure,以及 NVIDIA 雲端合作夥伴 CoreWeave、Crusoe、Lambda、Nebius、Nscale 與 Together AI.。 全球系統製造商思科、戴爾科技集團、慧與科技、聯想集團與美超微預計將推出多款採用 Vera Rubin 平台的伺服器產品。此外,Aivres、華碩、鴻海科技集團、技嘉科技、英業達、和碩聯合科技、雲達科技、緯創和緯穎等廠商也將提供相關系統。 AI 實驗室與尖端模型開發者,包括 Anthropic、Meta、Mistral AI 與 OpenAI,也正計畫利用 NVIDIA Vera Rubin 平台訓練規模更大且能力更強大的模型,並以相較前幾代 GPU 更低的延遲和成本,支援長情境與多模態系統。 →更多的【PCDIY!業界新聞】: →更多的【PCDIY!賣場情報】: →更多的【PCDIY!科技情報】: →更多的【IT資訊新聞】: →更多的【ITMan!資訊經理人】: →更多的【PCDIY!八卦】: (01)光華商場的新危機,淘寶網帶來的跨境電商價格戰![http://www.pcdiy.com.tw/detail/5232]
最多人點閱
- GIGABYTE GeForce GTX 1070 Xtreme Gaming實測開箱,電競級顯示卡中的頂尖之作!
- Seagate IRONWOLF 10TB機械硬碟實測開箱,氦氣填充那嘶狼守護者NAS HDD
- AMD Radeon RX 480實測開箱,玩家級顯示卡重返榮耀!
- 「浦科特 PLEXTOR S2C 512GB SSD」實測開箱,超值型固態硬碟中的優質好貨!
- 洋垃圾神器,Xeon E5-2670實測開箱大作戰!
- MSI CORE FROZR L CPU散熱器實測開箱,微星電競產品再添新兵
- MSI GeForce GTX 1060 GAMING X 6G實測開箱,玩家級電競顯示卡中的神兵利器!
- ASUS ROG STRIX-GTX1080-O8G-GAMING開箱實測,旗艦三風扇電競顯示卡中的頂尖之作!
- MSI GeForce GTX 1080 GAMING X 8G實測開箱,史上最強大Pascal自製顯示卡全面來襲!
- 淘寶網洋垃圾再顯神威,1999元買到8核心16執行緒Xeon E5-2670神器級處理器!
- MSI GeForce GTX 1050 Ti GAMING X 4G實測開箱,中階電競顯示卡中的玩家精品!
- 微星MSI Aegis X-026TW快打旋風V同梱版實測開箱,VR電競桌機的頂尖之作!